Introducción Series de Tiempo

Santiago Bohorquez Correa

Universidad EAFIT
Escuela de Economía y Finanzas

  • Una serie de tiempo, corresponde a datos de un individuo u objeto recolectados en múltiples puntos de tiempo.
  • Este tipo de series puede ser utilizado para responder preguntas que no pueden ser resueltas con el uso de datos de corte transversal visto en Econometría 1.
  • Por ejemplo, ¿cuál es el efecto causal en una variable de interés, \(Y\), del cambio de otra variable, \(X\), a través del tiempo?
  • ¿Cuál es la mejor predicción del valor de una variable en el futuro?

Ejemplo: PIB

Ejemplo: Crecimiento PIB

  • La segunda gráfica muestra el crecimiento del PIB.
  • Este valor se calcula haciendo una transformación de la serie original del PIB.
  • Para estimar estos cambios necesitamos definir algunos conceptos básicos.

Rezago Variable

  • El primer rezago de una variable \(x_t\) se define como \(x_{t-1}\)
  • De la misma forma el rezago \(j\) de \(x_t\) es \(x_{t-j}\)
  • Cabe anotar que el rezago depende de la unidad de medida de la variable, e.g. si la variable esta medida anualmente \(t-1\) es el año anterior, pero si esta medida mensualmente, \(t-1\) es el mes anterior.

El operador de rezagos

Sea \(x_t\) una observación aleatoria de una serie de tiempo. Definimos el símbolo \(L\) como:

\[\begin{equation} L x_t = x_{t-1} \end{equation}\]

\(L\) es lo que en matemáticas es conocido como un operador. No es un parámetro o un número pero puede ser tratado como tal para operaciones algebraicas, e.g. \(L^2 x_t = L(L x_t) = L x_{t-1} = x_{t-2}\), en general \(L^n x_t = x_{t-n}\)

En adición, la expresión

\[\begin{equation} \alpha(L) = \alpha_0 + \alpha_1 L + \alpha_2 L^2 + \dots + \alpha_p L^p \end{equation}\]

es llamado el polinomio de orden p del operador de rezagos.

Y si lo aplicamos a un serie de tiempo, generamos una media móvil ponderada de la serie, i.e.

\[\begin{equation} \alpha(L)x_t = \alpha_0 + \alpha_1 x_{t-1} + \alpha_2 x_{t-2} + \dots + \alpha_p x_{t-p} \end{equation}\]

El operador de diferencia

Otro operador usado es

\[\begin{equation} \Delta = 1 - L \end{equation}\]

el operador de diferencia. \(\Delta x_t = x_t - x_{t-1}\) es el cambio en \(x\) en el periodo \(t\).

Es importante anotar la diferencia de notación entre

\[\begin{equation} \Delta_n = 1 - L^n \end{equation}\]

que el operador de la diferencia de \(n\) periodos, y

\[\begin{equation} \Delta^n = (1 - L)^n \end{equation}\]

el operador de la diferencia de orden \(n\), e.g. \(\Delta_2 x_t = x_t - x_{t-2}\) y \(\Delta^2 x_t= \Delta x_t - \Delta x_{t-1} = (x_t - x_{t-1}) - (x_{t-1} - x_{t-2})\)

  • La primera diferencia del logaritmo de \(x_t\) es \(\Delta \ln (x_t) = \ln (x_t) - \ln (x_{t-1})\).
  • El cambio porcentual de una serie de tiempo \(x_t\) entre los periodos \(t-1\) y \(t\) es aproximadamente \(100*\Delta \ln (x_t)\). Esta aproximación funciona mejor cuando el cambio porcentual es pequeño.
  • Es común usar esta aproximación para anualizar crecimientos, por ejemplo con datos trimestrales, se obtiene así, \(4*100*\Delta \ln (x_t)\).

Cambio porcentual

  • El cambio del logaritmo de una variable es aproximadamente igual al cambio proporcional de dicha variable, i.e. \(\ln (X + a) - \ln (X) \cong \frac{a}{X}\).
  • Ahora, remplazando \(X\) con \(x_{t-1}\) y \(a\) con \(\Delta x_t\). Y, sabiendo que, \(x_t = x_{t-1} + \Delta x_t\).
  • Esto significa que el cambio proporcional entre los periodos \(t\) y \(t-1\) es aproximadamente, \[\begin{align} \Delta \ln (x_t) = \ln (x_t) - \ln (x_{t-1}) & = \ln (x_{t-1} + \Delta x_t) - \ln (x_{t-1}) \\ & \cong \frac{\Delta x_t}{x_{t-1}} \end{align}\]

Estacionareidad

  • Las series de tiempo usan los datos pasados para cuantificar relaciones históricas.
  • Si el futuro es parecido al pasado, entonces estas relaciones históricas se pueden usar para hacer predicciones.
  • Si este no es el caso, entonces estas relaciones históricas no son fiables para hacer predicciones.
  • Esta idea es formalmente conocida como estacionariedad.

Estacionariedad débil: Una secuencia aleatoria \(\{x_t\}\) es estacionaria débil (o estacionaria en covarianza) si la media, varianza y la secuencia de autocovarianzas de orden \(j\) , para \(j>0\) son independientes de \(t\)

Estacionariedad Estricta:

Es aquel que su distribución de probabilidad conjunta se mantiene constante durante el tiempo

Si se toma cualquier cualquier colección de variables aleatorias de la secuencia y se desplaza n periodos, la distribución de probabilidad conjunta debe permanecer inalterada

Estacionariedad estricta implica estacionariedad débil, pero lo contrario no siempre aplica.

En el caso especial de la distribución normal, estacionariedad débil si implica estacionariedad estricta.

Procesos No-estacionarios

  • La no-estacionariedad de una serie genera problemas de estimación de los parámetros. Ahora discutiremos tres de ellos:
    • El parámetro del proceso AR(1) es sesgado hacia cero.
    • El parámetro puede tener una distribución no-normal.
    • Obtenemos regresiones espurias.

Ejemplos

Procesos estacionarios en Tendencia

consideremos el siguiente proceso con tendencia y \(|\phi| < 1\),

\[\begin{equation} x_t = \delta + \alpha t + \phi x_{t-1} + \varepsilon_t \end{equation}\]

Si estimamos la media de este proceso vemos que depende del tiempo,

\[\begin{align*} E[x_t] & = E[\delta + \alpha t + \phi x_{t-1} + \varepsilon_t] \end{align*}\]

reemplazando obtenemos,

\[\begin{align*} E[x_t] & = E[\delta] + E[\alpha t] + E[\phi x_{t-1}] + E[\varepsilon_t] \\ & = \delta + \alpha t + \phi E[\delta + \alpha (t-1) + \phi x_{t-2} + \varepsilon_{t-1}] \\ & \vdots \\ & = \sum_{i=0}^{n-1} \phi^i (\delta + \alpha (t-i)) \end{align*}\]

dado que \(|\phi| < 1\) y \(n \rightarrow \infty\)

por lo tanto la media sería,

\[\begin{equation} E[x_t] = \frac{\delta (1-\phi) + \alpha \phi (t + 1)}{(1-\phi)^2} \end{equation}\]

y dado que depende de \(t\) no sería estacionaria bajo nuestra definición de estacionariedad.

  • Sin embargo, noten que \(t\) cumple con la condición de ser un proceso deterministico, ya que sabemos perfectamente el valor que va a tomar con antelación.
  • Por lo tanto, podemos pensar en una transformación donde excluimos la tendencia deterministica de la serie permitiendo que la serie ya no dependa de \(t\).
  • A este tipo de procesos se les conoce como procesos estacionarios en tendencia. Y es común su uso para filtros en economía.

Paseo aleatorio

Ahora veamos el caso del proceso definido como,

\[\begin{equation}\label{eq:rw} x_t = x_{t-1} + \varepsilon_t \end{equation}\]

Este proceso es conocido como “random walk” o paseo aleatorio.

¿Es este proceso estacionario (débil)? Para esto miremos cual es la media y la varianza de este modelo.

\[\begin{align} E(x_t) & = E( x_{t-1} + \varepsilon_t) \\ & = E(x_{t-1}) + E(\varepsilon_t) \\ & = E[ ( x_{t-2} + \varepsilon_{t-1})] + E(\varepsilon_t) \\ & = E[ x_{t-2}] + E[ \varepsilon_{t-1}] + E(\varepsilon_t) \\ & = E[(x_{t-3} + \varepsilon_{t-2})] + E[ \varepsilon_{t-1}] + E(\varepsilon_t) \end{align}\]

Propiedades de la esperanza

\[\begin{align} E(X + Y) & = E(X) + E(Y) \\ E(k* X) & = k E(X) \text{ Para todo } k \in \mathbb{R} \\ E(X*Y) & = E(X) * E(Y) \text{ Sí y solo sí X y Y son independientes} \\ E(X) & = E[E(X | Y)] \end{align}\]

Si seguimos iterando hacia atrás obtenemos \[\begin{align} E(x_t) & = E[x_{t-n}] + E[\varepsilon_{t-(n-1)}] + \dots + E[ \varepsilon_{t-1}] + E(\varepsilon_t) \\ \\ E(x_t) & = E[x_{t-n}] + 0 + \dots + 0 + 0 \\ E(x_t) & = E[x_{t-n}] \end{align}\]

Ahora hacemos lo mismo para la varianza, por facilidad de exposición asumimos que \(E[x_1] = 0\):

\[\begin{align} Var(x_t) & = E[(x_t - E[x_t])^2] \\ & = E[x_t^2] \\ & = E[(x_{t-1} + \varepsilon_t)^2] \\ & = E[(x_{t-1})^2] + 2E[ x_{t-1}\varepsilon_t] + E[\varepsilon_t^2] \\ & = E[x_{t-1}^2] + 0 + E[\varepsilon_t^2] \end{align}\]

Si seguimos iterando hacia atrás obtenemos

\[\begin{align} Var(x_t) & = E[( x_{t-2} + \varepsilon_{t-1})^2] + E[\varepsilon_t^2] \\ & = E[x_{t-2}^2] + E[\varepsilon_{t-1}^2] + E[\varepsilon_t^2] \\ \end{align}\]

Repitiendo este proceso, obtenemos

\[\begin{align} Var(x_t) & = E[x_{t-n}^2] + E[\varepsilon_{t-n}^2 ] + \dots + E[\varepsilon_{t-1}^2] + E[\varepsilon_t^2] \\ \end{align}\]

Suponiendo \(Var(x_1) = \sigma^2\), este proceso tiene varianza igual a,

\[\begin{equation} \gamma_{0,t} = t \sigma^2 \end{equation}\]

por lo cual el proceso es no estacionario.

Se deja como ejercicio, que la auto-covarianza es,

\[\begin{equation} \gamma_{j,t} = (t-j) \sigma^2 \end{equation}\]

Finalmente, la auto-correlación esta dada por,

\[\begin{align*} \rho_{j,t} & = \frac{\gamma_{j,t}}{\sqrt{\gamma_{0,t}}\sqrt{\gamma_{0,t-j}}} \\ & = \frac{(t-j)\sigma^2}{\sqrt{t \sigma^2} \sqrt{(t -j)\sigma^2} } \\ & = \frac{\sqrt{t-j}}{\sqrt{t}} \end{align*}\]

Sin embargo, podemos hacer uso del operador de diferencias para convertir esta serie en un proceso estacionario,

\[\begin{equation} w_t = \Delta x_t = x_t - x_{t-1} = \varepsilon_t \end{equation}\]

donde \(w_t\) es estacionario.

Acá pasamos de \(x_t\) a \(w_t\) pero siempre podemos hacer el proceso contrario en caso tal que deseemos conocer los valores de la serie original

\[\begin{align} x_t & = w_t + x_{t-1} \\ & = w_t + w_{t-1} + x_{t-2} \\ & \vdots \\ & = w_t + w_{t-1} + w_{t-2} + w_{t-3} + \dots \end{align}\]

por lo tanto el proceso \(x_t\) se obtiene sumando o integrando el proceso \(w_t\)

Por esta razón, el paseo aleatorio hace parte de la clase de modelos integrados.

Los modelos integrados son aquellos que se pueden obtener mediante suma o integración de modelos estacionarios

Pruebas de Raíces unitarias

Por este motivo se han diseñado diferentes pruebas estadísticas para asegurase de la estacionariedad de la serie. A continuación veremos cuatro de las pruebas más usadas:

  • Prueba de Dickey-Fuller.
  • Prueba de Dickey-Fuller aumentada.
  • Prueba de Phillips-Perron.
  • Prueba KPSS.

Prueba de Dickey-Fuller

Dickey y Fuller (1979) consideraron el modelo AR(1),

\[\begin{equation} x_t = \phi x_{t-1} + \varepsilon_t \end{equation}\]

Cuando \(\phi =1\) este proceso tiene raíz unitaria y se vuelve un paseo aleatorio.

Si substraemos \(x_{t-1}\) de ambos lados, obtenemos

\[\begin{equation}\label{df}\tag{*} \Delta x_t = (\phi - 1) x_{t-1} + \varepsilon_t \end{equation}\]

Así, para testear la hipótesis de raíz unitaria, podemos testear que el coeficiente de \(x_{t-1}\) en la ecuación (*) sea igual a cero, contra la alternativa que es menor a cero

  • La regresión (*) es conocida como una regresión des-balanceada ya que la variable dependiente es I(0). i.e. estacionaria, y la variable independientes es I(1), i.e. integrada de orden 1, bajo la hipótesis nula.
  • Bajo la hipótesis alternativa, ambas variables son estacionarias volviendo la regresión balanceada de nuevo.

  • La forma obvia de testear la hipótesis de raíz unitaria en la ecuación (*) es usando el estadístico t para probar su significancia.
  • Sin embargo, el parámetro \(\phi - 1\) de esta ecuación no sigue una distribución normal, por lo cual los p-values derivados de este supuesto estarían erróneos.
  • MacKinnon (1996) derivó las probabilidades asociadas a las distribuciones de este parámetro a través de simulaciones. Estos valores son los que reportan la mayoría de paquetes estadísticos.

Además de la ecuación (*), D-F también desarrollaron el método para casos con constante, i.e.

\[\begin{equation}\label{df2}\tag{+} \Delta x_t = \delta + (\phi - 1) x_{t-1} + \varepsilon_t \end{equation}\]

y tendencia

\[\begin{equation}\label{df3}\tag{^} \Delta x_t = \delta + \alpha t + (\phi - 1) x_{t-1} + \varepsilon_t \end{equation}\]

MacKinnon (1996) también estimo las probabilidades asociadas a los parámetros de (+) y (^). En economía por lo general testeamos usando (+)

Prueba de Dickey-Fuller Aumentado

Los resultados anteriores parten de un modelo AR(1), Dickey (1984) extendió estos resultados para proceso AR(p), de forma tal que lo podemos escribir como,

\[\begin{equation}\label{dfa}\tag{++} \Delta x_t = \beta x_{t-1} + \phi_1'\Delta x_{t-1} + \phi_2' \Delta x_{t-2} + \dots + \phi_{p-1}' \Delta x_{t-(p-1)} + \varepsilon_t \end{equation}\] donde \(\beta\) sigue la misma distribución que el parámetro de (*). También se puede extender para las ecuaciones (+) y (^)

Prueba de Phillips-Perron

  • Phillips y Perron (1988) desarrollaron un test basado en la ecuación (*), en el cual no se estima la correlación serial como en (++), pero utilizan un estimador no-parametrico consistente para heteroscedastidad y auto-correlación, a la Newey-West.
  • Este estimador sigue la misma distribución que D-F por lo cual los valores de MacKinnon (1996) pueden ser utilizados.
  • Sin embargo, Schwert (1989), y Perron y Ng (1996) mostraron que este estimador funciona peor que el D-F aumentado en muestras finitas, por lo cual D-F aumentado tiende a ser preferido.

Prueba KPSS

  • D-F y PP tienen como hipótesis nula la existencia de raíz unitaria. Estos test tienen el problema que carecen de poder para rechazar, por lo cual tienden a encontrar raíces unitarias cuando estas no existen.
  • Kwiatkowski, Phillips, Schimdt and Shin (1992) crearon un test donde la hipótesis nula es I(0), i.e. la serie es estacionaria.

Este test es basado en que si la serie es estacionaria y la diferenciamos una vez se vuelve de orden I(-1).

El estadístico considerado es entonces: \[\begin{equation} \hat{\eta}_{\mu} = \frac{1}{n^2 s_{nl}^2} \sum_{t=1}^n S_{t}^2 \end{equation}\]

donde, \(s_{nl}^2\) es un estimador consistente de \(\sigma^2\) y \(S_t = \sum_{s=1}^t (x_s - \bar{x})\)

Código R

La serie data es un AR(2) con intercepto y tendencia, es decir, no es estacionaria. Suponiendo que desconocemos esta información, para verificar esto, podemos las librerias de R urca y tseries. Ambas tienen implementadas todas las pruebas de raices unitarias vistas en clase, solo cambian en como muestran los resultados y en algunas opciones adicionales para algunas pruebas. Por conveniencia en este ejemplo usaremos la tseries.

De manera visual se observa que la serie es no estacionaria, aunque parece serlo en tendencia y con intercepto. Comprobamos este hecho con las diferentes pruebas. Cabe resaltar que para la libreria tseries, ADF (Dickey-Fuller aumentada) y PP (Phillips-Perron) son pruebas que soportan una serie con tendencia e intercepto. Por su parte, KPSS por default solo incluye el intercepto. Así, que se quiere probar si la serie es estacionaria sólo con intercepto o sin tendencia ni intercepto, debemos recurrir a la libreria urca.

ADF rechaza la hipótesis nula así que concluimos que la serie estacionaria.

library(tseries)
adf.test(data)
## 
##  Augmented Dickey-Fuller Test
## 
## data:  data
## Dickey-Fuller = -10.176, Lag order = 9, p-value = 0.01
## alternative hypothesis: stationary

De igual manera, PP rechaza la hipótesis nula así que concluimos que la serie estacionaria.

pp.test(data)
## 
##  Phillips-Perron Unit Root Test
## 
## data:  data
## Dickey-Fuller Z(alpha) = -1829.8, Truncation lag parameter = 7, p-value
## = 0.01
## alternative hypothesis: stationary

Finalmente, kpss de manera predeterminada rechaza que la serie sea estacionaria pues no considera estacionareidad en tendencia, pero al cambiar el parámetro null por _“Trend” si la incluye y por tanto no encuentra evidencia de que la serie sea no estacionaria. En conclusión, tenemos evidencia para afirmar que la serie es estacionaria con intercepto y en tendencia.

kpss.test(data)
## 
##  KPSS Test for Level Stationarity
## 
## data:  data
## KPSS Level = 12.572, Truncation lag parameter = 7, p-value = 0.01
kpss.test(data, null = "Trend")
## 
##  KPSS Test for Trend Stationarity
## 
## data:  data
## KPSS Trend = 0.048778, Truncation lag parameter = 7, p-value = 0.1